人臉辨識技術的迅猛發展為許多領域帶來了便利,但同時也引起了隱私和安全的關切。例如,歐洲出台的 GDPR去規範了我們其實不能濫用大家的資料尤其是沒有大家的同意書!這個在人臉關鍵點或者視線估計的任務中大不了我們可以自己找人來收集(筆者的經驗約 50000 張 / 100 人左右就能訓練出一定能力的模型,因此約找 100 人簽同意書),但像是人臉辨識這個已經被證明都要上萬甚至百萬的 task 要怎麼辦?
今晚開始,我們將深入探討有隱私保護概念的人臉技術方法,這些方法旨在平衡技術進步和個人隱私之間的關係。我們將關注差異隱私、安全多方計算、模型修剪、金鑰保護、去識別化等技術,以及它們在保護用戶隱私方面的應用。
概念
差異隱私是一種數據隱私保護技術,其核心思想是確保在加入或排除數據集的單個個體時,不會對結果產生明顯的影響。這種技術確保個人的參與不會被追蹤或揭示。
應用
在人臉辨識中,差異隱私的應用涉及向訓練數據中添加一定程度的噪聲,以防止模型對單個個體的特定特徵進行過度擬合。這確保了模型在處理數據時不會泄露個人身份。
概念
安全多方計算是一種協作計算方法,多個參與者可以在不共享其私密數據的情況下完成計算。這種方法確保了參與者之間的數據保密性。
應用
在人臉辨識中,安全多方計算可用於保護特定個體的人臉特徵,同時允許模型在受限制的信息中進行訓練。這種方式確保了模型的安全性,即使在多方參與的情況下。
概念
模型修剪是通過刪除或修剪模型中的一些參數,以減少模型的容量,降低過擬合的風險。這種方法旨在提高模型的泛化性。
應用
在人臉辨識中,模型修剪可以減少模型中儲存的特定個體信息,降低對數據的過度擬合,同時保持模型的性能。
概念
使用密碼學技術,例如同態加密,來保護存儲在雲端或其他伺服器上的模型和數據。
應用
在人臉辨識中,金鑰保護和加密技術確保了即使伺服器被入侵,也無法直接訪問敏感信息。這增強了模型和數據的安全性。
概念
通過去識別化技術,將人臉圖像中的特定特徵去識別,以減少與個人身份的關聯性。
應用
在人臉辨識中,去識別化可以通過模糊化或刪除特定特徵,如眼睛、嘴巴等,以實現隱私保護。甚至把人轉成另一個人也可以
簡單講: 要用虛擬資料! 但這與真實資料一定有 domain gap ,所以要解決這個問題!
隨著隱私保護的技術不斷發展,人臉辨識技術在更多場景中得到應用的同時,也能夠更好地保護用戶的隱私。這些方法的選擇取決於具體的應用場景和隱私需求。然而,仍需密切關注技術發展,以確保隨著人臉辨識技術的應用,隱私依然能夠得到妥善保護。歡迎明晚大家繼續回來,我們將深入介紹 隱私保護概念 (privacy-preserving) 的方法
參考文獻
1.GDPR
2.Dwork, C., & Roth, A. (2014). The algorithmic foundations of differential privacy. Foundations and Trends® in Theoretical Computer Science, 9(3–4), 211–407.
3.Yao, A. C. (1982). Protocols for secure computations. In Proceedings of the 23rd Annual IEEE Symposium on Foundations of Computer Science (FOCS '82) (pp. 160–164).
4.Han, S., Mao, H., & Dally, W. J. (2015). Deep compression: Compressing deep neural networks with pruning, trained quantization and huffman coding. arXiv preprint arXiv:1510.00149.
5.Paillier, P. (1999). Public-key cryptosystems based on composite degree residuosity classes. In Advances in Cryptology—EUROCRYPT’99 (pp. 223–238).
6 .El Emam, K., Dankar, F. K., & Vaillancourt, R. (2009). Secure health research in the era of cloud computing. In Proceedings of the 2009 42nd Hawaii International Conference on System Sciences.